Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Algorithme de Gram-Schmidt

    Formulaire de report


    Théorème

    START
    Théorème
    Théorème d'orthogonalisation de Gram-Schmidt Hypothèses:
    • \(E\) est un Espace préhilbertien
    • \((e_1,\dots,e_n)\) est une Famille libre de \(E\)

    Résultats:
    • il existe une unique famille orthonormée \((u_1,\dots,u_n)\) de \(E\) tq :
    •     
    • \(\forall p\in[\![1,n]\!],\operatorname{Vect}(u_1,\dots,u_p)=\operatorname{Vect}(e_1,\dots,e_p)\)
    •     
    • \(\forall p\in[\![1,n]\!],\langle{e_p,u_p}\rangle \gt 0\)

    Equivalence?:
    Résumé: Ce procédé permet de construire une matrice orthogonale à partir d'une autre famille, de manière à ce que la matrice de passage soit triangulaire supérieure et que ses coefficients diagonaux soient strictement postitifs.
    END

    Preuve et construction

    START
    Ω Basique (+inversé optionnel)
    Recto: Dans le procédé d'orthonormalisation de Gram-Schmidt, comment obtenir le premier vecteur \(u_1\) à partir de la famille libre \((e_1,\dots,e_n)\) ?
    Verso: Il suffit de normer \(e_1\) : $$u_1=\frac{e_1}{\lVert e_1\rVert}$$
    Bonus:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Dans le procédé d'orthonormalisation de Gram-Schmidt, comment obtenir le deuxième vecteur \(u_2\) à partir de la famille libre \((e_1,\dots,e_n)\) et du premier élément de la famille recherchée \(u_1\) ?
    Verso: On construit le vecteur intermédiaire \(v_2=e_2+a_{1,2}u_1\).
    Pour que \(v_2\) soit orthogonal à \(u_1\), il suffit de prendre \(a_{1,2}=-\langle{u_1,e_2}\rangle \).
    Enfin, on normalise en posant \(u_2=\frac{v_2}{\lVert v_2\rVert}\).
    Bonus:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Dans le procédé d'orthonormalisation de Gram-Schmidt, comment obtenir le \(k\)ième vecteur \(u_k\) à partir de la famille libre \((e_1,\dots,e_n)\) et des \(k-1\) premier élément de la famille recherchée \((u_1,\dots,u_{k-1})\) ?
    Verso: On cherche d'abord \(v_k\), qui possède les mêmes propriétés que \(u_k\) sans être normé.
    Pour cela, on prend \(v_k=e_k+a_{1,k}u_1+\dots+a_{k-1,k}u_{k-1}\).
    Pour que \(v_k\) soit orthogonal aux \(u_i\), on prend \(a_{i,k}=-\langle{u_i,e_k}\rangle \).
    En prenant \(u_k=\frac{v_k}{\lVert v_k\rVert}\), on a répondu aux conditions.
    Bonus:
    END


    Exercices


    Tester les hypothèses de l'algorithme

    Soit \(q:{\Bbb R}^3\to{\Bbb R}\) définie par $$q(x)=x_1^2+4x^2_2+9x_3^2+2x_1x_2+6x_2x_3$$ la matrice de sa forme polaire est : $$A=\begin{pmatrix}1&1&0\\ 1&4&3\\ 0&3&9\end{pmatrix}$$
    L'algorithme de Gram-Schmidt s'applique-t-il ?

    Calculer les mineurs

    $$\begin{align}\delta_0&=1\\ \delta_1&=1\\ \delta_2&=\begin{vmatrix}1&1\\ 1&4\end{vmatrix}=3\\ \delta_3&=\begin{vmatrix}1&1&0\\ 1&4&3\\ 0&3&9\end{vmatrix}=18\end{align}$$ aucun mineur n'est nul, donc l'algorithme s'applique bien


    L'algorithme de Gram-Schmidt peut-il s'appliquer à la forme quadratique \((x,y,z)\mapsto xy+yz+zx\) ?

    Non car il y a un \(0\) dans la case en haut à gauche de la matrice

    $$A=\begin{pmatrix}0&1/2&1/2\\ 1/2&0&1/2\\ 1/2&1/2&0\end{pmatrix}$$
    \(\delta_1=0\) donc l'algorithme ne s'applique pas



    Appliquer l'algorithme

    Soit \(q:{\Bbb R}^3\to{\Bbb R}\) définie par $$q(x)=x_1^2+4x^2_2+9x_3^2+2x_1x_2+6x_2x_3$$ la matrice de sa forme polaire est : $$A=\begin{pmatrix}1&1&0\\ 1&4&3\\ 0&3&9\end{pmatrix}$$
    Les mineures sont : $$\begin{align}\delta_0&=1\\ \delta_1&=1\\ \delta_2&=\begin{vmatrix}1&1\\ 1&4\end{vmatrix}=3\\ \delta_3&=\begin{vmatrix}1&1&0\\ 1&4&3\\ 0&3&9\end{vmatrix}=18\end{align}$$
    Appliquer l'algorithme de Gram-Schmidt

    Chercher la matrice via les rapports de mineurs
    $$\begin{pmatrix}\delta_1/\delta_0&0&0\\ 0&\delta_2/\delta_1&0\\ 0&0&\delta_3/\delta_2\end{pmatrix}=\begin{pmatrix}1&0&0\\ 0&3&0\\ 0&0&6\end{pmatrix}$$

    Premier vecteur
    $$v_1=e_1$$

    Deuxième vecteur
    \(v_2=e_2-\lambda v_1\)
    $$\begin{align}\sigma(v_1,v_2)&=\sigma(e_1,e_2+\lambda v_1)\\ &=\sigma(e_1,e_2)+\lambda\sigma(e_1,v_1)\\ \\ \quad\text{ donc }\quad\lambda&=-\frac{\sigma(e_1,e_2)}{q(e_1)}=-1\end{align}$$

    Troisième vecteur
    De même, \(v_3=e_3+\gamma v_2+\mu v_1\) avec
    $$\begin{align}\sigma(v_1,v_3)&=0\\ &=\sigma(e_1,e_3)+\mu\sigma(e_1,v_1)\\ \implies \mu&=\frac{-\sigma(e_1,e_3)}{q(e_1)}=0\\ \\ \sigma(v_2,v_3)&=0\\ &=\sigma(e_2-e_1,e_3)+\gamma\sigma(e_2-e_1,e_2-e_1)\\ \implies\gamma&=\frac{-\sigma(e_2,e_3)+\sigma(e_1,e_3)}{q(e_1-e_3)}=-1\end{align}$$

    Conclusion + vérification

    Donc : $$v_1\begin{pmatrix}1\\ 0\\ 0\end{pmatrix},\qquad v_2\begin{pmatrix}1\\ -1\\ 0\end{pmatrix},\qquad v_3\begin{pmatrix}0\\ -1\\ 1\end{pmatrix}$$



  • Rétroliens :
    • Base orthogonale
    • Isotropie
    • Principe de Jacobi
    • Projection et composante orthogonale